Das Folgende ist ein Auszug aus dem aktuellen Whitepaper von Netskope „So entwerfen Sie eine Cloud-Datenschutzstrategie“ von James Christiansen und David Fairman. In Teil 1 dieser Reihe haben wir die ersten beiden Schritte im Zusammenhang mit der Datenermittlung und Datenklassifizierung behandelt.
Schritt 3: Kennen Sie den Datenfluss durch das Ökosystem – seien Sie der Kontrollpunkt zwischen dem Benutzer und den Daten.
Daten sind wie Wasser – sie wollen frei sein. Daher benötigt eine Organisation Transparenz und muss in der Lage sein, alle Verkehrsflüsse zu überprüfen, um Folgendes zu ermitteln:
- Welche Daten werden basierend auf Kritikalität und Sensibilität übertragen (Datenklassifizierung)?
- Woher und wohin bewegt es sich? Lassen sich diese Quell- und Zielumgebungen mit dem Erkennungsprozess vereinbaren oder haben wir unbekannte Datenspeicher identifiziert, die untersucht werden müssen? Der letzte Punkt sollte nicht übersehen werden. Geschäftsprozesse werden sich ändern und damit auch die Datenflüsse. Es ist zwingend erforderlich, dass eine Organisation dies kontinuierlich überwacht und bei der Identifizierung neuer Ströme die entsprechenden Maßnahmen ergreift. Typischerweise sind dies folgende Aktionen:
- Sicherstellen, dass die Sicherheitskontrollen oder der Sicherheitsstatus der neu identifizierten Quelle oder des Ziels, bei dem es sich um eine neue SaaS-Anwendung (oder eine Instanz dieser SaaS-Anwendung) handeln könnte, den erforderlichen Sicherheitsstandards entsprechen
- Sicherstellen, dass die Sicherheitskontrollen oder die Sicherheitshaltung eines neuen Drittanbieters (und damit die Sicherheit der Umgebung des Drittanbieters), der nun Zugriff auf die Daten hat, den Sicherheits- und Datenschutzstandards entspricht
- Bestätigen Sie, dass dieser Datenfluss angemessen ist und nicht auf eine Gefährdung hinweist oder einen fehlerhaften Geschäftsprozess oder Benutzeraktionen identifiziert, die korrigiert werden müssen.
- Können wir geografische und/oder rechtsgebietsbezogene Datenbewegungen feststellen, die möglicherweise Datenschutz- oder behördliche Anforderungen mit sich bringen?
Durch die Erstellung eines Cloud-nativen Prüfpunkts zwischen dem Benutzer und den Daten, der die Sprache der Cloud interpretieren kann, verfügt das Unternehmen nun über eine Datenermittlungsfunktion zur Identifizierung aller Cloud-bezogenen Daten und kann dann die in Schritt 2 besprochenen Funktionen nutzen, um die großen Datenmengen zu automatisieren und hochpräzise zu klassifizieren, und zwar in Echtzeit, wenn die Daten verwendet und übertragen werden. Darüber hinaus benötigt ein Unternehmen dieselbe automatisierte Klassifizierungsfunktion für ruhende Daten. Auf diese Weise wird mit einem zweigleisigen Ansatz sichergestellt, dass alle Daten automatisch erkannt und klassifiziert werden. Und natürlich muss die automatische Klassifizierungs-Engine konsistent auf beide Datensätze angewendet werden, also sowohl auf ruhende als auch auf übertragene Daten.
Dies verbessert zudem die Echtzeitanalyse und -visualisierung, die beide für den Datenschutz von entscheidender Bedeutung sind und sich schnell zu neuen Instrumenten für Security Operations-Teams entwickeln. Diese Analysen sind kein Ersatz für SIEM, aber sie helfen dabei, die Anforderungen für eine effektive Sicherheitsanalyse, Reaktion und ein Drittanbieter-Risikomanagement neu zu definieren. Diese Fähigkeit wird zu einer grundlegenden Komponente, die erforderlich ist, um sicherzustellen, dass ein Unternehmen in Echtzeit über alle Informationen und Erkenntnisse verfügt, um die Auswirkungen und Abhängigkeiten von Cloud-Daten zu verstehen, fundierte Entscheidungen zu treffen und rechtzeitig Maßnahmen zu ergreifen.
Schritt 4: Wissen, wer Zugriff auf die Daten hat – für mehr Transparenz
Als Prüfpunkt zwischen Benutzer und Daten kann ein Unternehmen nicht nur nachvollziehen, woher und wohin die Daten fließen, sondern es erhält auch Einblick, welche Identitäten (Maschine oder Benutzer) Zugriff auf die Daten haben.
Die Fähigkeit, dies festzustellen, verbessert die Identitäts- und Zugriffsverwaltungsfähigkeiten einer Organisation. Diese Informationen können zum Validieren vorhandener IAM-Praktiken (z. B. rollenbasierte Zugriffskontrolldefinitionen) und zum Identifizieren von Anomalien verwendet werden, die untersucht und ggf. korrigiert werden müssen. Dies gilt sowohl für den Endbenutzer- als auch für den privilegierten Zugriff.
Durch diese Transparenz kann ein Unternehmen den Zugriff auf Daten und Anwendungen minimieren und so wiederum die Gefährdung und das damit verbundene Risiko minimieren. Um die Angriffsmöglichkeiten zu minimieren, ist eine feinkörnige Zugriffskontrolle zwingend erforderlich.
Schritt 5: Erfahren Sie, wie gut die Daten geschützt sind – seien Sie die Stelle zur Durchsetzung der Richtlinien zwischen Benutzer und Daten
Im Speicher: Im Hinblick auf laute Daten ist es wichtig, dass ein Unternehmen die Sicherheitslage von Cloud-Umgebungen wie AWS, Azure, GCP scannt und bewertet, um die Sicherheitskonfiguration dieser Umgebungen zu überprüfen und sicherzustellen, dass Daten nicht willkürlich offengelegt werden. Eine Fehlkonfiguration der Cloud-Umgebungen ist eine der Hauptursachen für Datenpannen. Die Überwachung der Compliance von Sicherheitskonfigurationen ist seit vielen Jahren eine gängige Funktion für lokale Infrastrukturen und muss selbstverständlich auch auf die Cloud-basierten IaaS- und PaaS-Dienste ausgeweitet werden.
In Bewegung: In Bezug auf Cloud-bezogene Daten muss eine Organisation eine Funktion einrichten, die einen Policy Enforcement Point (PEP) zwischen dem Benutzer und den Daten erstellt. (Dies ist eine logische Erweiterung des in Schritt 3 beschriebenen Inspektionspunkts.)
Die Organisation verfügt nun über zahlreiche Datenpunkte, die es ihr ermöglichen, kontextbezogene politische Entscheidungen zu treffen. Auf diese Weise ist ein wirklich zielgerechter und risikobasierter Ansatz für die Anwendung von Kontrollen möglich. Als Beispiel (und Empfehlung): Wenn eine Organisation die Kritikalität und Sensibilität der Daten versteht (abgeleitet aus der Klassifizierung), kann sie den Schutz der Daten mit der höchsten Klassifizierungsstufe priorisieren und sich bis zur zweitniedrigsten Klassifizierung vorarbeiten. Beachten Sie, dass die niedrigste Ebene normalerweise als „Öffentlich“ eingestuft wird und keinen oder nur geringen Schutz rechtfertigt.
Wenn Sie mehr über die Entwicklung einer Cloud-Datenschutzstrategie erfahren möchten Sie können hier ein kostenloses Exemplar des Whitepapers lesen.!